« Nous sommes passés du rêve d’un Web sémantique à la réalité d’un Web synthétique »


Plus de dix ans après avoir inventé le Web, Tim Berners-Lee signait, en 2001, avec deux autres collègues, un texte qui posait les bases de son futur : le Web sémantique. Il s’agissait de renforcer la structuration et la description du code des pages Web pour permettre à des programmes informatiques (des « agents », des « bots » ou robots) d’effectuer un certain nombre de tâches comme un assistant personnel : prises de rendez-vous, calculs de trajets, vérifications croisées d’informations, transactions commerciales, démarches administratives, etc.

Le Web sémantique poursuivait l’objectif que les « machines » puissent « comprendre les documents et les données sémantiques, mais pas la parole et les écrits humains ».

Quelque vingt ans plus tard, le monde entier est aujourd’hui bluffé par l’arrivée d’un agent conversationnel inédit pour le grand public, ChatGPT, capable cette fois de comprendre la parole et les écrits humains, reléguant du même coup Siri, Alexa et autres OK Google à une sorte de préhistoire. Mercredi 27 septembre, Mark Zuckerberg a présenté ses nouveaux agents (« bots ») dopés à l’intelligence artificielle (IA) et dotés de « personnalités » (sic), qui agiraient, selon lui [dans une tribune du Financial Times], « comme des assistants, des coachs, ou qui peuvent vous aider à interagir avec des entreprises et des créateurs ».

Plus grand-chose de « naturel »

En vingt ans, nous sommes passés du rêve d’un Web sémantique à la réalité d’un Web presque essentiellement… synthétique. La sémantique compte toujours beaucoup dans l’élaboration des méthodes dites « d’apprentissage profond » (deep learning [l’apprentissage machine]), qui sont l’un des piliers de l’IA. Mais le Web, celui des médias sociaux, notamment, dans sa part visible comme invisible, a changé de nature.

C’est un Web synthétique, parce qu’il n’a plus grand-chose de « naturel », à la fois dans les interactions et dans les informations qui y circulent. On trouve partout et en masse des robots, des agents conversationnels, des algorithmes de contrôle assumant des effets d’éditorialisation désormais impossibles à nier. Les études scientifiques et techniques indiquent depuis déjà quelques années que presque la moitié du trafic de l’Internet mondial est causée par des robots.

Par-delà le trafic, c’est désormais aussi dans la production d’informations (vraies ou fausses) et dans les interactions en ligne au sein des médias sociaux que la part des robots est de plus en plus importante et pourrait rapidement nous placer en situation de naviguer, de discuter et d’interagir au moins autant – et peut-être demain presque exclusivement – avec des programmes informatiques qu’avec des individus.

Il vous reste 58.55% de cet article à lire. La suite est réservée aux abonnés.



Source
Catégorie article Politique

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.